Проблема штучного інтелекту: ЄС пише нові правила

Проблема штучного інтелекту: ЄС пише нові правила

Проблема штучного інтелекту набирає всебільшої актуальності. Європейський союз запропонував регулювання штучного інтелекту, що є прямим викликом поширеній думці в Силіконовій долині, що законотворці повинні залишити нову технологію в спокої. 

В чому полягають нові правила регулювання Штучного інтелекту від ЄС?

Пропозиція встановлює нові регулятивні вимоги, які забороняють деякі види використання штучного інтелекту, суворо регулюють використання ШІ, яке супроводжується високим рівнем ризику та незначно регулюють менш ризикові випадки використання штучного інтелекту.  

Законотворча пропозиція вимагатиме від постачальників та користувачів систем штучного інтелекту високого ризику дотримання правил щодо даних та управління ними; документацію та ведення діловодства; прозорість та надання інформації користувачам; людський нагляд; і надійність, точність та безпека. 

Головне нововведення, згадане в Білій книзі про штучний інтелект минулого року – це вимоги оцінки відповідності, щоб встановити, що системи ШІ з високим ризиком відповідають цим вимогам, перш ніж їх можна буде пропонувати на ринку або вводити в експлуатацію. Додатковим важливим нововведенням є доручення системі постмаркетингового моніторингу виявляти проблеми, що виникають, та пом’якшувати їх. 

Проблема штучного інтелекту і ЄС: про що забули згадати?

Незважаючи чітку структуру нововведень, у регулюванні є деякі прогалини та упущення. У ньому немає наголосу на тих, кого зачіпають системи ШІ. Відсутні будь-які загальні вимоги щодо інформування людей, які піддаються алгоритмічним оцінкам. 

Мало уваги приділяється алгоритмічній справедливості. І необхідні оцінки відповідності є лише внутрішніми процесами, а не документами, які можуть бути розглянуті громадськістю або регулятором.   

Тим не менше, ця пропозиція є всеосяжним та продуманим початком законодавчого процесу в Європі і може виявитись основою трансатлантичного співробітництва, спрямованого на створення спільної регуляторної мережі щодо нової технології. проблема штучного інтелекту починає привертати увагу законодавців.

Сфера застосування штучного інтелекту

Незважаючи на те, що нові норми охоплюють користувачів систем штучного інтелекту, регламент зосереджується в основному на постачальниках, суб’єктах, які розробляють систему штучного інтелекту та розміщують її на ринку або застосовують для власного використання.

Юрисдикція цього регулювання охоплює постачальників систем ШІ в ЄС незалежно від того, де провайдер знаходиться, а також користувачів систем ШІ, що знаходяться в межах ЄС, а також постачальників та користувачів, розташованих за межами ЄС. Цей круг потенційно охоплює компанії, які не мають присутності на ринку в ЄС, але використовують системи ШІ для обробки даних про громадян ЄС.

Що таке фішинг? Приклади фішингових атак та захисту

Заборони ЄС щодо штучного інтелекту

Проблема штучного інтелекту віршується певними заборонами та обмеженнями.

Правила забороняють системи штучного інтелекту, які заподіюють або можуть спричинити “фізичну або психологічну” шкоду шляхом використання “підсвідомих методів” або шляхом використання вразливостей “певної групи осіб через їх вік, фізичну або психічну ваду”. 

Проблема штучного інтелекту: ЄС пише нові правила|Photo:slate.com
Проблема штучного інтелекту: ЄС пише нові правила|Photo:slate.com

Вони забороняють системам ШІ надавати соціальні оцінювання державними органами. Це також виключає використання дистанційних систем біометричної ідентифікації в режимі реального часу, таких як розпізнавання обличчя, у загальнодоступних місцях для цілей правоохоронних органів.

Ці заборони звучать суворо, але насправді їх менше, ніж здається на перший погляд. Заборони були зосереджені на маніпулятивних або експлуататорських системах ШІ, які багато груп та науковці визнали такими, що намагаються обдурити користувачів у прийнятті рішень проти власних інтересів – наприклад, розголошення більшої кількості особистої інформації, ніж потрібно Інтернет-сервісу. 

Але правоохоронний орган повинен визначити, коли система є експлуатаційною чи маніпулятивною, тому ефект заборони залежить від майбутніх регуляторних дій. Заборона на соціальне оцінювання – це декларація, що європейські цінності відкидають такі системи, як ті, що розробляються в Китаї.

Крім того, запропоновані правила дозволять використовувати віддалені системи біометричної ідентифікації для пошуку жертв злочинів, таких як зниклі діти; запобігати конкретній загрозі теракту; або для притягнення до відповідальності за тяжкі злочини з певними застереженнями, включаючи попереднє затвердження в суді чи адміністрації. Більше того, схоже, заборона не поширюється на використання правоохоронними органами розпізнавання обличь у базах даних “зображень або відеоматеріалів”, зібраних раніше.

Ці компроміси розчарують прихильників громадянських свобод, але задовольнять значні занепокоєння держав-членів ЄС щодо внутрішньої безпеки та тероризму. 

 І це положення може дозволити поліції держав-членів використовувати розпізнавання обличчя для ідентифікації підозрюваних у тероризмі, як це зробило ФБР після заворушень у Капітолії. 

Норми щодо систем ШІ з високим рівнем ризику

Системи ШІ з високим ризиком включають такі, що призначені для використання як компоненти безпеки виробів, які вже регулюються чинним законодавством про безпеку продукції, включаючи машини, іграшки та медичні вироби. 

Крім того, законодавство конкретно визначає певні окремі системи ШІ як системи з високим ризиком, коли вони становлять особливий ризик для встановлених основних прав. 

Список високого ризику включає системи, що використовуються для біометричної ідентифікації, безпеки критично важливої інфраструктури, освітніх цілей або питань працевлаштування, права на отримання державних пільг, кредитного рейтингу та повязані з диспетчерськими службами. Деякі системи ШІ, що використовуються для правоохоронних органів, контролю за імміграцією та здійснення правосуддя, також вважаються системами з високим ризиком.  

Постачальники систем штучного інтелекту повинні встановити “належні практики менеджменту та управління даними” і повинні використовувати набори даних, які є “релевантними, репрезентативними, без помилок та повними”. Вони повинні скласти технічну документацію, щоб продемонструвати, що система відповідає правилам. Ця документація повинна містити загальний опис системи ШІ; його основні елементи, включаючи дані перевірки та тестування; та інформацію про його роботу, включаючи показники точності.

Системи ШІ з високим ризиком повинні бути «достатньо прозорими, щоб користувачі могли розуміти та контролювати, як система ШІ з високим ризиком виробляє свої результати». Розкриття інформації включає “рівень точності, надійності та безпеки”, обставини використання, коли система створюватиме ризики для безпеки та прав, загальну логіку системи.

Системи ШІ з високим ризиком повинні бути розроблені таким чином, щоб дозволити користувачам «контролювати» їх, щоб запобігти або мінімізувати «потенційні ризики». Конструктивні особливості повинні дозволяти людським користувачам уникати надмірної залежності від системних рішень («упередження автоматизації») і повинні дозволяти призначеному керівнику-людині перевизначати системні рішення та використовувати кнопку «зупинити».

Регламент вимагає, щоб системи ШІ з високим ризиком «відповідали високому рівню точності». Це вимагає стійкості до “помилок, несправностей або невідповідностей”, а також проти “спроб змінити їх використання або продуктивність зловмисними третіми сторонами, які мають намір використовувати вразливості системи”.

Ключовим зобов’язанням постачальників є проведення оцінки відповідності, що демонструє, що система високого ризику відповідає цим правилам. Постачальники систем штучного інтелекту, що використовується як компонент безпеки споживчих товарів, які вже підлягають попередній оцінці відповідності сторонніми учасникам згідно з чинним законодавством про безпеку продукції, тепер також повинні продемонструвати відповідність правилам штучного інтелекту. 

Постачальники автономних систем високого ризику повинні самі проводити внутрішні оцінки, за винятком того, що незалежні треті сторони повинні проводити оцінки для використання ідентифікації обличчя.

Після того, як система ШІ з високим ризиком продана або введена в експлуатацію, постачальники повинні створити „пропорційну” систему постмаркетингового моніторингу для збору даних про роботу системи, щоб забезпечити її „постійну відповідність” нормам та вжити коригувальних заходів, якщо це необхідно.

А як вирішується проблема штучного інтелекту, який самостійно навчається та розвивається?

Системи, які продовжують навчатися після введення їх у користування, потребуватимуть нової оцінки відповідності, якщо зміни від навчання є суттєвими. Якщо користувач такої системи суттєво її змінює, то за проведення нової оцінки відповідності несе відповідальність користувач, а не постачальник.

Керування та забезпечення нових норм

Проблема штучного інтелекту не може бути вирішена без належного контролю за виконанням норм. Контроль за виконанням законодавства ЄС завжди складний через розподіл відповідальності між органами ЄС та державами-членами, проте схема, розроблена для штучного інтелекту, є особливо заплутаною. 

Національні наглядові органи повинні взяти на себе ініціативу у проведенні “ринкового нагляду” за продуктами штучного інтелекту. Державам-членам не потрібно створювати нові спеціалізовані органи з регулювання ШІ – існуючі органи, на які вже покладено відповідні регуляторні обов’язки згідно з іншим законодавством ЄС, можуть також брати на себе завдання стосовно штучного інтелекту. 

Повноваження цих органів влади щодо штучного інтелекту включають розслідування ризиків для охорони здоров’я та безпеки та основних прав, а також наказ компаніям вжити коригувальних заходів, наприклад, шляхом виведення з ринку систем, що здійснюють правопорушення. Держава-член або Європейська комісія може заперечити проти рішення, прийнятого іншою державою-членом, ініціюючи загальноконсультаційний процес, що може призвести до його скасування.

Національні наглядові органи можуть мати доступ до всієї інформації, документації та даних, необхідних для забезпечення виконання закону, включаючи доступ до вихідного коду, якщо це необхідно, і повинні “захищати права інтелектуальної власності та конфіденційну ділову інформацію або комерційну таємницю, включаючи вихідний код”.

Створена нещодавно Європейська рада з питань штучного інтелекту матиме по одному представнику від кожного національного наглядового органу та Європейської ради з захисту даних (EDPB). Ця нова рада мала б повноваження видавати висновки та вказівки щодо імплементації законодавства, ділитися передовим досвідом та розробляти гармонізовані технічні стандарти. Таким чином, комісія відіграла б провідну роль в управлінні сферою штучного інтелекту на рівні ЄС.

Нарешті, Європейська Комісія представила потенційні покарання, які є навіть за межами Загального регламенту захисту даних (GDPR). Держави-члени можуть накладати адміністративні штрафи на суму до 30 мільйонів євро або 6 відсотків світового річного корпоративного обороту (залежно від того, що більше) на компанії, які продають системи ШІ для заборонених цілей (наприклад, створення соціальних рейтингів) або не відповідають вимогам щодо підготовки даних. Порушення інших вимог передбачає менші покарання за градуйованою шкалою.

Що таке спам? Історія і види спаму

Недоліки

Так, чи буде вирішена проьлема штучного інтелекту цією ініціативою ЄС?

У розділах, що супроводжують положення, повно посилань на добре задокументовані занепокоєння щодо ризиків алгоритмічного упередження. Але текст постанови напрочуд вразливий, якщо ми звернемо увагу щодо необхідності проведення різнорідних оцінок впливу. 

Регламент натякає на неоднакову оцінку впливу в декількох місцях. Норма управління даними дозволяє постачальникам систем штучного інтелекту використовувати дані, що стосуються таких чутливих властивостей, як раса, стать та етнічна приналежність, для забезпечення “моніторингу, виявлення та корекції упередженості”. 

Норма надійності вимагає від деяких систем ШІ захисту від «можливо упереджених результатів [.]» Технічна документація системи повинна містити «показники, що використовуються для вимірювання … потенційно дискримінаційних наслідків» та інформацію про «можливі непередбачувані результати та джерела ризиків для… основних прав та дискримінацій [.] “

Тут існують суперечності. Документація, яка, можливо, повинна містити оцінку упередженості, не повинна надаватися користувачам, громадськості або тим, хто потенційно може зазнати впливу дискримінаційних алгоритмів. Інформація доступа лише регуляторам за запитом. На відміну від цього, законодавство чітко передбачає оцінку та розкриття точності системи.

В цілому, компаниї Big Tech виходять практично неушкодженим згідно з новим законодавством про ШІ, незважаючи на те, що вони є об’єктами зростаючого занепокоєння щодо використання алгоритмів, керованих ШІ, та основних напрямків більшості передових досліджень штучного інтелекту.

Регламент не розглядає алгоритми, що використовуються в соціальних мережах, пошукових системах, роздрібній торгівлі в Інтернеті, магазинах додатків, мобільних додатках або мобільних операційних системах, як високий ризик. Можливо, деякі алгоритми, що використовуються в механізмах відстеження реклами або рекомендацій, можуть бути заборонені як маніпулятивні або експлуатаційні практики. Але, як зазначалося вище, для цього потрібно провести оцінку з боку регулятора.

Положення передбачає інформацію, яка повинна розголошуватися людям, на яких впливають системи ШІ. Регламент вимагає інформувати людей, коли вони “взаємодіють” із системою ШІ або коли їхні емоції чи стать, раса, етнічна приналежність чи сексуальна орієнтація “розпізнаються” системою ШІ. Їм потрібно сказати, коли системи штучно створюють або маніпулюють матеріалом. Але не в інших випадках. Наприклад, людям не потрібно повідомляти, коли їх алгоритмічно сортують, щоб визначити право на отримання державних пільг, кредитування, освіту або працевлаштування. 

Проблема штучного інтелекту: ЄС пише нові правила|Photo: www.ft.com
Проблема штучного інтелекту: ЄС пише нові правила|Photo: www.ft.com

Вимога до оцінки відповідності є значно менш захисною та більше показовою, ніж здається. Оцінка відповідності – це процедура, а не документ, це внутрішній контроль для більшості постачальників систем ШІ з високим ризиком. Отже, немає аудиторського звіту для розгляду громадськістю або регулятором. 

Натомість громадськість отримує «відмітку», проставлену в системі ШІ, що свідчить про відповідність правилам. Постачальники систем ШІ повинні скласти “декларацію про відповідність” і “надавати її в розпорядження” регуляторів, але навіть ця заява про відповідність правилам може бути відмовлена ​​в доступі для громадськості.       

Ці очевидні недоліки майже напевно будуть обговорені та переглянуті під час проходження законодавства через складний та тривалий європейський законодавчий процес.

Суд над комп’ютером: позитивні на негативні сторони технології

А яка державна політика обмеження штучного інтелекту в США?

Регламент ЄС контрастує з поодиноким підходом до ШІ, який застосовується в США. Адміністрація Трампа делегувала відповідальність за штучний інтелект конкретним регуляторним органам із загальними вказівками не регулювати надмірно. Це стало продовженням політики адміністрації Обами. 

Адміністрація Байдена, ймовірно, підтримуватиме цей децентралізований підхід з, можливо, більшим акцентом на необхідність регулювання, щоб уникнути потенційних ризиків штучного інтелекту. Всеохоплюючий підхід ЄС щодо горизонтальних правил, заснованих на ризиках, передпродажних оцінок відповідності та обов’язків постмонтажного моніторингу не буде копіюватися в Сполучених Штатах. Хоча деякі міста та штати вживали заходів щодо певного використання ШІ, забороняючи або суворо регулюючи розпізнавання обличчя.     

Тим не менше, є можливості для трансатлантичного співробітництва щодо ШІ. Європейська комісія запропонувала адміністрації Байдена амбіційний план трансатлантичного співробітництва – створення Ради з питань торгівлі та технологій та “робота над угодою про ШІ”.  

Рішення ЄС визначити власний сміливий регуляторний напрямок щодо ШІ неминуче ставить питання про те, який простір залишається для трансатлантичної угоди. Очевидно, що Сполучені Штати не збираються офіційно приймати визначення штучного інтелекту з боку ЄС як “проблема високого ризику”, ані його точну систему оцінки відповідності. 

Проте обидві сторони вважатимуть політично привабливим співпрацю щодо ШІ. І хоча випуск проекту регламенту ЄС може закрити кілька дверей для співпраці зі США, він також потенційно може відкрити інші. Наприклад:

  •                               Після встановлення загальноєвропейських критеріїв систем ШІ з високим рівнем ризику Сполучені Штати можуть домогтися домовленостей з ЄС, що дозволяють компаніям, розташованим у США, самостійно засвідчувати свою відповідність, за умови контролю з боку уряду США. Також можна розглянути питання взаємного визнання оцінок відповідності.  
  •                               Можуть існувати можливості для структурованого урядом державно-приватного партнерства у галузі досліджень та розробок у галузі штучного інтелекту. Така співпраця може базуватися на Угоді між США та ЄС про науку і технології, слідуючи підходу, який нещодавно застосували Сполучені Штати з Великобританією. 
  •                               Спеціалізовані урядові установи США, які дотримуються власних норм щодо штучного інтелекту, таких як фінанси, захист споживачів чи захист зайнятості, могли б порівняти підходи з відповідними регуляторними органами в Європейському Союзі. Ці переговори можна було б організувати в рамках більш широкого міжурядового діалогу щодо ШІ.

Регуляторна проблема штучного інтелекту: висновок

Законодавча пропозиція Європейської Комісії є лише останнім доповненням до амбіційного цифрового законодавчого порядку денного, який Брюссель презентував поступово протягом останніх двох років. 

Його Закон про цифрові послуги та Закон про цифрові ринки мали на меті ргулювати поведінку гігантів американських цифрових платформ. Комісія також зобразила положення про ШІ як захист європейських цінностей від розробників штучного інтелекту з Китаю.    

Європейський Союз відзначається розробкою нормативно-правової бази, яка має вплив поза його межами – свідчення прикладу GDPR. Але чи в кінцевому підсумку його регулювання штучного інтелекту стає головним набором правил у конкурентній боротьбі зі Сполученими Штатами та Китаєм? 

Джерело: www.brookings.edu/

Подібні новини